开发人类机器人协作控制模型的一个重要因素是它们对人类伴侣的接受程度。创建可接受的控制模型的一种这样的方法是尝试模仿机器人中的类似人类的行为,以使他们的行为对人类更加直观。为了调查任务复杂性如何影响人类机器人合作伙伴的感知和接受,我们提出了一种新型的基于人类的机器人控制模型,以避免障碍,该模型可以解释通常在人类协作中发生的领导者陪伴动力学。使用避免障碍的场景评估了建议的控制方法的性能和接受,在该方案中,我们将单个任务和协作任务之间的任务绩效与机器人合作伙伴的不同领导者动力学角色进行了比较。评估结果表明,机器人控制方法能够复制人类行为,以提高受试者协作的总体任务绩效。但是,关于机器人合作伙伴的接受,参与者的意见混合在一起。与针对不太复杂的任务开发的类似控制方法的研究结果相比,新的结果表明,即使从动态角度来看,控制方法适应了更复杂的任务,对拟议的控制模型的接受程度较低。这表明,手头协作任务的复杂性不仅增加了更复杂的控制模型的需求,而且还增加了具有社会胜任的控制模型的需求。
translated by 谷歌翻译
许多社会机器人技术研究人员正在解决的一个问题是如何在机器人中创建更类似人类的行为,以使人类与机器人之间对人类伴侣更直观的合作。但是,为了开发类似人类的协作机器人系统,首先必须更好地理解人类的协作。人类的合作是我们所有人都熟悉的事情,但是从运动学的角度来看,对此并不了解。例如,一种尚未进行彻底研究的动态,但自然而然地发生在人类的合作中,例如领导者追随者的动态。在我们先前的研究中,我们解决了在协作达到任务期间人类二元组中领导者的角色分配的问题,结果暗示,在个人实验中表现较高的受试者自然会在身体协作中承担领导者的角色。在这项研究中,我们通过观察协作任务变得更加复杂时观察到领导者的前进动力如何改变了人类二元组中的领导者角色分配研究。在这里,这项研究是针对达到任务的,在执行2D达到任务时,二元组中的一个主题面临着避免障碍的额外任务,而他们的伴侣则不知道障碍。我们发现,受试者在整个任务中都改变了角色,以便成功完成任务,但是考虑到整个任务领导者,表现较高的人总是在表现较低的人中始终占主导地位,无论他们是否知道其他任务是否避免障碍。
translated by 谷歌翻译
High-dimensional data can often display heterogeneity due to heteroscedastic variance or inhomogeneous covariate effects. Penalized quantile and expectile regression methods offer useful tools to detect heteroscedasticity in high-dimensional data. The former is computationally challenging due to the non-smooth nature of the check loss, and the latter is sensitive to heavy-tailed error distributions. In this paper, we propose and study (penalized) robust expectile regression (retire), with a focus on iteratively reweighted $\ell_1$-penalization which reduces the estimation bias from $\ell_1$-penalization and leads to oracle properties. Theoretically, we establish the statistical properties of the retire estimator under two regimes: (i) low-dimensional regime in which $d \ll n$; (ii) high-dimensional regime in which $s\ll n\ll d$ with $s$ denoting the number of significant predictors. In the high-dimensional setting, we carefully characterize the solution path of the iteratively reweighted $\ell_1$-penalized retire estimation, adapted from the local linear approximation algorithm for folded-concave regularization. Under a mild minimum signal strength condition, we show that after as many as $\log(\log d)$ iterations the final iterate enjoys the oracle convergence rate. At each iteration, the weighted $\ell_1$-penalized convex program can be efficiently solved by a semismooth Newton coordinate descent algorithm. Numerical studies demonstrate the competitive performance of the proposed procedure compared with either non-robust or quantile regression based alternatives.
translated by 谷歌翻译